深度學習圖像分割算法在病理性切片中應用
硬件架構:雙Xeon可擴展處理器(最大56核,最高3.8GHz)+最大9塊GPU+20盤位并行存
機器特點:目前最強大的CPU+GPU異構計算
數據規模:建模與仿真計算、高性能科學計算、機器/深度學習
目的:采用基于深度學習的胃癌病理切片分割算法實現對胃癌區域的識別。
方法:以U-Net網絡為基本框架設計深層次的胃癌病理切片分割算法模型Deeper U-Net(DU-Net)。采用區域重疊分割法將數據分割成若干小塊圖片,然后利用預先訓練好的DU-Net網絡模型對分割的小圖片進行初次分割,并使用圖片分類器清楚假陽性樣本,重新合成新樣本。采用重復學習的方法使用新樣本進行多次重復訓練,將得到的結果應用全鏈接條件隨機場(CRF)進行后續處理。最終得到胃癌分割圖片并驗證結果。
結果:經過3次重復學習后,DU-Net網絡模型的平均精度為91.5%,平均交叉聯合度量(IoU)為88.4%,相比于未經重復學習的基礎DU-Net模型,其平均精度提升了5.6%,平均IoU提升了2.9%。
結論:基于深度學習的胃癌病理切片分割算法實現了精準的分割,提升了模型的泛化能力和魯棒性,可用于輔助胃癌病理診斷。
1.深度學習網名模型
1.1 網絡整體框架
該網絡包含14個卷積塊(convolution block)、7個最大池化層(max-pooling layer)、7個上采樣層(upsampling layer)和一個Sigmoid激活函數層,其中每個卷積塊包含有1個卷積層(convolution block)、1個批規范層(batch normalization layer)和1個PRelu激活層。
2.訓練方法
2.1數據處理
由于標注的胃癌區域中存在很多白色背景區域,直接對其訓練會導致模型將白色背景區域看作胃癌區域的一個特征。為此需要過濾大部分背景區域圖片,以消除白色背景區域的干擾。對于深度學習來說,大規模數據集有利于提高模型的準確度。本文采用了隨即旋轉、平移、隨機裁剪、隨機顏色空間變換方法來進行數據的擴充。
2.2區域重疊分割法
使用無重疊分割法得到的圖片進行訓練。會使模型將白色背景區域占較大比例的圖片誤認為正常區域,從而增加了預測的不準確性。區域重疊分割法增加了圖片視野(即觀測域)的范圍,對不同視野下的相同癌癥區域進行重復預測,可有效避免上述情況。
網站首頁 | 產品中心 | 客戶案例 | 解決方案 | 新聞中心 | 關于我們 | 招賢納士 | 聯系我們 |
版權所有:江蘇德銘鑫商貿有限公司 www.euec.net www.njdmx.com 蘇ICP備17019116號-2
熱門搜索: 系統集成 服務器 存儲 云計算 聯想 戴爾 華為 思科 思杰 浪潮 深信服 等保2.0 網絡安全
版權聲明:本網站所刊內容未經本網站及作者本人許可,不得下載、轉載或建立鏡像等,違者本網站將追究其法律責任。本網站所用文字圖片部分來源于公共網絡或者素材網站,凡圖文未署名者均為原始狀況,但作者發現后可告知認領,我們仍會及時署名或依照作者本人意愿處理,如未及時聯系本站,本網站不承擔任何責任。